Telegram Group Search
This media is not supported in your browser
VIEW IN TELEGRAM
🎥 Self Forcing: генерация видео в реальном времени с RTX 4090

Новая техника Self Forcing позволяет обучать видеодиффузионные модели "думать как на инференсе" ещё во время обучения.

🧠 Что делает:
▪️ Имитирует autoregressive-инференс с KV-кэшированием прямо во время обучения
▪️ Устраняет расхождение train/test distributions
▪️ Достигает качества SOTA-моделей, но с реальным временем генерации
▪️ Работает даже на одной RTX 4090

⚙️ Требования:
• GPU с 24 GB+ памяти (4090 / A100 / H100 протестированы)
• Linux
• 64 GB RAM
• Другие конфигурации могут работать, но не проверялись

📌 Выход: стриминговое видео — кадр за кадром, без задержек, на одном потребительском GPU.

💡 Self Forcing — шаг к видеогенерации без лага и мегакластеров.

📦 Основан нп Wan 2.1

💻 Требования: минимум 24 ГБ VRAM и 64 ГБ RAM
🧪 Код открыт, всё работает (пока) только под Linux

Github (https://github.com/assetnote/newtowner)



@Python_Community_ru
🖥 Two Claps Open — инструмент, который открывает Chrome или активирует голосового помощника, когда пользователь хлопает в ладоши два раза 👏

💬 Как это работает:
• Слушает микрофон через pyaudio
• Реагирует на два быстрых хлопка подряд
• Открывает браузер или помощника

Возможности зависят только от фантазии:
• Включай музыку или YouTube по хлопку
• Открывай рабочий дашборд при запуске ПК
• Управляй умным домом — включай свет или открывай дверь хлопком


Чтобы понять, как "выглядит" хлопок в аудиосигнале, разработчик записал его и провёл преобразование Фурье. Оказалось, что основная энергия хлопка сосредоточена в диапазоне 1.4–1.8 кГц. Дальше был настроен полосовой фильтр, чтобы выделять только этот диапазон и отсекать шум.

После фильтрации система отслеживает пики в сигнале. Если зафиксировано три хлопка подряд с минимальным интервалом, автоматически запускается Chrome (или любая команда на ваш выбор).

Реализуется в реальном времени — просто и удобно для управления без рук!

Github (https://github.com/Yutarop/two_claps_open)



@Python_Community_ru
Автоматизируйте ML-эксперименты с GitLab CI/CD и CML

📅 17 июня в 20:00 мск — бесплатный вебинар с Николаем Осиповым

Хотите, чтобы эксперименты запускались сами, метрики попадали в Merge Request, а модели легко воспроизводились?

На вебинаре:

— Интегрируем GitLab CI/CD в ML-процесс
— Используем CML для автоматической визуализации результатов
— Запускаем обучение моделей при каждом коммите
— Настраиваем работу в облаке и версионирование через Git

📌 Полезно для:
— Data Scientists, внедряющих MLOps
— ML-инженеров, автоматизирующих пайплайны
— Техлидов, выстраивающих эффективный ML-конвейер

🎯 Итог: настроите стабильную и воспроизводимую систему ML-разработки — без ручного запуска, с чистыми метриками и контролем версий.

Присоединяйтесь к бесплатному вебинару и получите скидку на большое обучение онлайн-курса «MLOps».

👉 Регистрируйтесь по ссылке и начните выводить ML на прод https://clck.ru/3Ma8c7

Реклама. ООО «Отус онлайн-образование», ОГРН 1177746618576
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️ MicroVMS — новая платформа для запуска кода от AI-агентов с максимальной безопасностью и скоростью.

В отличие от Docker и других тяжелых решений, MicroVMS использует легковесные песочницы для быстрой изоляции, мгновенного старта и простого управления.

● Поддержка разных сред: Python, Node.js и другие
● Идеально для AI-агентов — разработка и запуск без лишних сложностей
● Удобная система управления проектами — настройка песочниц в пару кликов

Если вы хотите запускать код AI-агентов быстро, безопасно и удобно — обратите внимание на MicroVMS.

pip install microsandbox

🔗 Github (https://github.com/microsandbox/microsandbox)




@Python_Community_ru
2025/06/15 05:45:07
Back to Top
HTML Embed Code: